|
02.03.2026
09:00 Uhr
|
Künstliche Intelligenz birgt erhebliche Haftungsrisiken für Unternehmen und Mitarbeiter. Wir erläutern Rechtsstand und Gefahren anhand aktueller Fälle.

Die rasante Verbreitung generativer KI-Systeme in Unternehmen konfrontiert die Rechtspraxis mit einer Herausforderung: Wer haftet, wenn ChatGPT Fehler macht oder ein Mitarbeiter sensible Daten in eine KI eingibt? Welche rechtlichen Risiken ergeben sich aus der nicht genehmigten Nutzung von KI-Tools? Die arbeitsrechtliche Haftung bei KI-Nutzung ist in Deutschland bisher kaum durch höchstrichterliche Rechtsprechung geklärt. Während die technische Entwicklung exponentiell voranschreitet, hinkt die juristische Aufarbeitung hinterher.
Die bestehenden gesetzlichen Regelungen können KI-Modelle und -Systeme nur bedingt erfassen. Das Betriebsverfassungsgesetz wurde zwar 2021 angepasst, doch fehlt selbst dort eine Definition dessen, was unter künstlicher Intelligenz zu verstehen ist. Die EU-KI-Verordnung (AI Act) bringt neue Pflichten für Anbieter und Betreiber, lässt aber zentrale Haftungsfragen offen. Den Entwurf einer KI-Haftungsrichtlinie zog die EU-Kommission im Februar 2025 zurück.
Unternehmen und ihre Mitarbeiter bewegen sich damit in einem Rechtsraum erheblicher Unsicherheit. Die Beweislast für sorgfaltswidrige KI-Nutzung liegt beim Geschädigten, der oft kaum nachvollziehen kann, wie ein KI-Output zustande kam. Im Einzelfall können allerdings Beweislasterleichterungen greifen. Das ist etwa im Produkthaftungsrecht der Fall oder wenn man dem Arbeitgeber ein Organisationsverschulden vorhalten kann, er also seinen Organisationspflichten nicht nachgekommen ist. An dieser Stelle hätte auch die KI-Haftungsrichtlinie zu Erleichterungen zugunsten von Geschädigten führen sollen. Unternehmen sollten selbst aktiv werden, um Risiken aus der KI-Nutzung beherrschbar zu machen, und nicht abwarten, bis es auch hierzulande zu einschlägigen Gerichtsurteilen kommt.